任何机器学习(ML)算法的性能受到其超参数的选择影响。由于培训和评估ML算法通常很昂贵,因此需要在实践中有效地计算高参数优化(HPO)方法。多数目标HPO的大多数现有方法都使用进化策略和基于元模型的优化。但是,很少有方法可以解释性能测量中的不确定性。本文提出了多目标超参数优化的结果,并在评估ML算法的情况下进行了不确定性。我们将树结构化parzen估计量(TPE)的采样策略与训练高斯过程回归(GPR)在异质噪声后获得的元模型相结合。关于三个分析测试功能和三个ML问题的实验结果表明,相对于超量指标,多目标TPE和GPR的改善。
translated by 谷歌翻译
本文提出了一种称为前向组合传播(FCP)的算法,以说明在结构化模式识别问题上运行的前馈神经网络的预测。在所提出的FCP算法中,每个神经元由表示该神经元中的每个问题特征的作用的组合载体描述。使用给定的输入实例初始化构成向量,随后通过整个网络传播,直到我们到达输出层。值得一提的是,一旦完成网络的训练网络,就会执行该算法。每个组成值的符号指示相应的特征是否激发或抑制神经元,而绝对值会定量这种影响。旨在验证FCP算法的正确性,我们开发了一个关于偏见检测的案例研究,在其最先进的问题中,地面真理是已知的。仿真结果表明,构图值与保护特征的预期行为密切对齐。
translated by 谷歌翻译
本文介绍了一个模糊认知地图模型,用于量化结构化数据集中的隐式偏置,其中特征可以是数字或离散的。在我们的建议中,问题特征被映射到在运行什么时专家最初由专家激活的神经概念,而连接神经概念的权重表示特征之间的绝对相关/关联模式。此外,我们介绍一种配备的新推理机制,配备有标准化的转移功能,可防止神经元饱和。这种新推理机制的另一个优点是它可以通过在更新每个迭代中的神经元激活值时来调节非线性来容易地控制。最后,我们研究了我们模型的融合和源于定点吸引子的存在和单性的分析条件。
translated by 谷歌翻译
本文介绍了一种基于Prolog的推理模块,以产生鉴于由黑盒分类器计算的预测的反事实解释。建议的符号推理模块还可以解决使用地面真实标签而不是预测的if查询。总的来说,我们的方法包括四个明确定义的阶段,可以应用于任何结构化模式分类问题。首先,我们通过抵消缺失值并归一化数值特征来预先处理给定的数据集。其次,我们使用模糊群集将数值特征转换为象征性的,使得提取的模糊簇映射到有序的预定义符号集。第三,我们使用标称值,预定义符号,决策类和置信度值将实例编码为Prolog规则。第四,我们使用模糊粗糙集理论来计算每个Prolog规则的整体置信度,以处理通过将数值转变为符号而引起的不确定性。此步骤对新的相似性功能进行了额外的理论贡献,以比较涉及置信度值的先前定义的Prolog规则。最后,我们在人类之间实现了聊天栏和基于Prolog的推理模块,以解决自然语言查询并生成反事实解释。在使用合成数据集的数值模拟期间,我们在使用不同的模糊运算符和相似性功能时研究我们的系统的性能。在结束时,我们说明了我们的推理模块如何使用不同的用例工作。
translated by 谷歌翻译
时间序列加工是风力涡轮机健康监测的重要方面。尽管在这一领域进展,但新方法仍有空间来提高建模质量。在本文中,我们提出了两种新方法来分析风力涡轮机健康。这两种方法都基于抽象概念,使用模糊集实现,概述并汇总了底层的原始数据。通过观察概念的变化,我们推断涡轮机健康的变化。分析分别进行不同的外部条件(风速和温度)。我们提取代表相对低,中等和高功率生产的概念。第一种方法旨在评估相对较高和低功率生产的降低或增加。使用回归式模型执行此任务。第二种方法评估提取的概念的整体漂移。大漂移表明电力生产过程及时经历波动。使用语言标签标记概念,从而用改善的解释性功能配备了我们的模型。我们应用了提出的方法来处理描述四种风力涡轮机的公开数据。仿真结果表明,所有风力涡轮机的老化过程在所有风力涡轮机中都不均匀。
translated by 谷歌翻译
目前在社会和工业中广泛部署了模式分类问题的机器学习解决方案。然而,缺乏最准确的模型的透明度和问责制经常阻碍他们的安全使用。因此,显然需要开发可解释的人工智能机制。存在总结特征贡献的模型 - 不可知方法,但其可解释性仅限于由黑匣子型号制作的预测。开放挑战是开发具有内在解释性的模型,并产生自己的解释,即使对于传统上被视为(经常性)神经网络等黑匣子的模型的类别。在本文中,我们向结构化数据的可解释模式分类提出了一种长期认知网络。我们的方法通过量化决策过程中每个特征的相关性来提供自己的机制来提供解释。为了在不影响性能的情况下支持解释性,该模型通过允许控制非线性的准非线性推理规则来包含更多的灵活性。此外,我们提出了一种重复感知的决策模型,避免了独特的定点所带来的问题,同时引入确定性学习算法来计算可调参数。模拟表明,与最先进的白色和黑匣子型号相比,我们的可解释模型获得了竞争力。
translated by 谷歌翻译
We introduce pyGSL, a Python library that provides efficient implementations of state-of-the-art graph structure learning models along with diverse datasets to evaluate them on. The implementations are written in GPU-friendly ways, allowing one to scale to much larger network tasks. A common interface is introduced for algorithm unrolling methods, unifying implementations of recent state-of-the-art techniques and allowing new methods to be quickly developed by avoiding the need to rebuild the underlying unrolling infrastructure. Implementations of differentiable graph structure learning models are written in PyTorch, allowing us to leverage the rich software ecosystem that exists e.g., around logging, hyperparameter search, and GPU-communication. This also makes it easy to incorporate these models as components in larger gradient based learning systems where differentiable estimates of graph structure may be useful, e.g. in latent graph learning. Diverse datasets and performance metrics allow consistent comparisons across models in this fast growing field. The full code repository can be found on https://github.com/maxwass/pyGSL.
translated by 谷歌翻译
与单个IMU相比,多个刚性连接的惯性测量单元(IMU)传感器提供了更丰富的数据流。最先进的方法遵循IMU测量的概率模型,基于在贝叶斯框架下组合的错误的随机性质。但是,负担得起的低级IMU此外,由于其不受相应的概率模型所掩盖的缺陷而遭受了系统的错误。在本文中,我们提出了一种方法,即合并多个IMU(MIMU)传感器数据的最佳轴组成(BAC),以进行准确的3D置置估计,该数据通过从集合中动态选择最佳的IMU轴来考虑随机和系统误差所有可用的轴。我们在MIMU视觉惯性传感器上评估了我们的方法,并将方法的性能与MIMU数据融合的最新方法进行比较。我们表明,BAC的表现优于后者,并且在开放环路中的方向和位置估计都可以提高20%的精度,但需要适当的处理以保持获得的增益。
translated by 谷歌翻译
与2D栅格图像不同,没有用于3D视觉数据处理的单个主导表示。点云,网格或隐式功能等不同格式都具有其优点和劣势。尽管如此,诸如签名距离函数之类的网格表示在3D中也具有吸引人的属性。特别是,它们提供恒定的随机访问,并且非常适合现代机器学习。不幸的是,网格的存储大小随其尺寸而呈指数增长。因此,即使在中等分辨率下,它们也经常超过内存限制。这项工作探讨了各种低量张量格式,包括Tucker,Tensor Train和Wartenics Tensor tensor tensor tensor tensor分解,以压缩时间变化的3D数据。我们的方法迭代地计算,体素化和压缩每个帧的截断符号距离函数,并将张量式截断施加到代表整个4D场景的单个压缩张量中,将所有框架凝结到一个单个压缩张量中。我们表明,低级张量压缩对于存储和查询时间变化的签名距离功能非常紧凑。它大大降低了4D场景的内存足迹,同时令人惊讶地保留了它们的几何质量。与现有的基于迭代学习的方法(如DEEPSDF和NERF)不同,我们的方法使用具有理论保证的封闭式算法。
translated by 谷歌翻译
在本文中,我们介绍了TweetNLP,这是社交媒体中自然语言处理(NLP)的集成平台。TweetNLP支持一套多样化的NLP任务,包括诸如情感分析和命名实体识别的通用重点领域,以及社交媒体特定的任务,例如表情符号预测和进攻性语言识别。特定于任务的系统由专门用于社交媒体文本的合理大小的基于变压器的语言模型(尤其是Twitter)提供动力,无需专用硬件或云服务即可运行。TweetNLP的主要贡献是:(1)使用适合社会领域的各种特定于任务的模型,用于支持社交媒体分析的现代工具包的集成python库;(2)使用我们的模型进行无编码实验的交互式在线演示;(3)涵盖各种典型社交媒体应用的教程。
translated by 谷歌翻译